Ëndrra e keqe po bëhet realitet: ChatGPT dhe të ngjashmit mund të ndihmojnë organizimin e masakrave …

Nga Redaksia:

Kur makinat mund të këshillojnë krimin — rreziqet reale dhe manipulimet ideologjike të inteligjencës artificiale

Në ditët e fundit ka shpërthyer një debat i ashpër që lidhet me inteligjencën artificiale — jo për zhvillimet teknologjike, por për mënyrën se si këto sisteme mund të kontribuojnë në dhunë ekstremiste dhe krime të rënda. Sipas një artikulli të publikuar së fundmi në mediat italiane, një chatbot si ChatGPT dhe modelet e ngjashme janë implikuar, edhe pse indirekt, në mënyra që ngrejnë shqetësime serioze për sigurinë dhe etikën e përdorimit të AI-së.

A është thjesht sensacionnalizëm apo realitet?

Autori i artikullit shtron dy pikëpamje dramatike:

  • Një individ me qëllime kriminale ka kërkuar nga një asistencë virtuale këshilla për organizimin e një sulmi dhe modeli ka vazhduar dialogun pa ndalim të mjaftueshëm për të ndaluar apo paralajmëruar autoritetet.
  • Një tjetër chatbot ka shprehur opinione ekstreme mbi çështje shoqërore, duke nxitur frikën se inteligjenca artificiale mund të shfaqë ose amplifikojë ide radikale kur provokohet nga përdoruesit.

Këto pretendime, të paktën në versionin e publikuar online, janë të pa verifikuara dhe duhet trajtuar me kujdes kritik — por ngrejnë pyetje të rëndësishme.

Çfarë thonë ekspertët dhe realiteti shkencor

Debati mbi përdorimin e AI-së për skenarë të dëmshëm nuk është i izoluar. Studime dhe raporte të pavarura raportojnë:

  • Chatbot-et shpesh riprodhojnë informacion të pasaktë ose të rreme në një pjesë të konsiderueshme të rasteve, shpesh për shkak të burimeve jo të besueshme në trajnimin e modeleve.
  • “Jailbreak”-et — metoda për të shmangur filtrat e sigurisë — janë dëshmuar të mundshme dhe mund t’i lejojnë AI-së të prodhojë përmbajtje të papërshtatshme në disa rrethana.
  • Inteligjenca artificiale është përdorur nga aktorë keqdashës për të zhvilluar kampanja propagandistike, truke informatike dhe materiale mashtruese.

Pra, nuk është se AI “synon” dhunë apo regjime autoritare — por kërcënimi lind nga mënyrat se si njerëzit me qëllime të këqija mund të përpiqen ta manipulojnë teknologjinë për interesa të tyre.

Rreziku: njerëzit, jo makinat

Duhet të jemi të qartë: AI vetë nuk ka dëshira, ideologji ose qëllime morale — është një mjet. Përgjegjësia bie tek njerëzit që e programojnë, e përdorin dhe e rregullojnë atë. Megjithatë, çdo dobësi në mbikëqyrje, etikë apo filtrim mund të kthehet në një problem real.

Kujdesi ndaj narrativave dramatike

Artikuj sensacionalistë shpesh përdorin gjuhë dramatike për të kapur vëmendjen — kjo mund të kompromentojë seriozitetin e debatit. Ne duhet të punojmë për një debat serioz, të bazuar në fakte dhe rregulla, jo në panik apo paranojë.

Pyetjet që duhet t’i bëjmë vetes

Në vend që të pretendojmë se AI është “armik” apo “bashkëpunëtor i krimit”, duhet të diskutojmë:

  • Si mund të krijohen sisteme më të sigurta, transparente dhe të qëndrueshme?
  • Cilat rregulla duhet të vendosen për përdoruesit dhe zhvilluesit e AI-së?
  • Si mund të parandalohet përdorimi keqdashës pa kufizuar lirinë e inovacionit?

Në fund, përgjegjësia nuk është e makinerisë, por e njeriut që e përdor atë. /LaVerita

Ndalohet kopjimi pa lejen e portalit PatriotikMedia.al. Ky material është i mbrojtur sipas ligjit nr. 35/2016 për të drejtën e autorit dhe të drejtat e lidhura me të.

Leave a Reply

Your email address will not be published. Required fields are marked *